作为自我监督的代表学习中的一个精美工具,近年来对比学习越来越关注。从本质上讲,对比学习旨在利用用于代表学习的正面和负样本对,这与利用特征空间中的邻居信息涉及利用邻居信息。通过调查对比学习和邻里分量分析(NCA)之间的联系,我们提供了一种对比学习的新型随机最近邻近的观点,并随后提出了一系列优于现有的对比损失。在我们拟议的框架下,我们展示了一种新的方法来设计集成的对比损失,可以同时实现下游任务的良好准确性和鲁棒性。凭借综合框架,我们对标准准确性的高达6 \%改进,提高了对普通准确性的17%。
translated by 谷歌翻译
Transfer learning from large language models (LLMs) has emerged as a powerful technique to enable knowledge-based fine-tuning for a number of tasks, adaptation of models for different domains and even languages. However, it remains an open question, if and when transfer learning will work, i.e. leading to positive or negative transfer. In this paper, we analyze the knowledge transfer across three natural language processing (NLP) tasks - text classification, sentimental analysis, and sentence similarity, using three LLMs - BERT, RoBERTa, and XLNet - and analyzing their performance, by fine-tuning on target datasets for domain and cross-lingual adaptation tasks, with and without an intermediate task training on a larger dataset. Our experiments showed that fine-tuning without an intermediate task training can lead to a better performance for most tasks, while more generalized tasks might necessitate a preceding intermediate task training step. We hope that this work will act as a guide on transfer learning to NLP practitioners.
translated by 谷歌翻译
选举演讲在交流候选人的愿景和使命中起着不可或缺的作用。从崇高的承诺到泥泞,选举候选人都对所有人说明了。但是,关于选民究竟赢得了什么胜利,仍然存在一个公开的问题。在这项工作中,我们使用最先进的自然语言处理方法来研究共和党候选人唐纳德·特朗普(Donald Trump)和民主党候选人乔·拜登(Joe Biden)的讲话和情感,他们争夺2020年美国总统大选。比较美国的种族二分法,我们分析了导致不同候选人的胜利和失败的原因。我们认为,这项工作将为选举竞选策略提供信息,并为与各种人群进行沟通提供基础。
translated by 谷歌翻译
自早期以来,针对病毒的疫苗一直是小时的需求。但是,很难(准时)将疫苗有效地分配给一个国家的所有角落,尤其是在大流行期间。考虑到人口的广泛,多元化的社区以及智慧社会的需求,有效地在任何国家/国家中优化疫苗分配策略是一项重要任务。尽管各种疫苗管理站点的数据(大数据)大量可以开采,以获得有关大规模疫苗接种驱动器的宝贵见解,但很少有尝试彻底改变传统的大规模疫苗接种运动来减轻社会经济危机大流行国家。在本文中,我们在研究和实验中弥合了这一差距。我们收集公开可用的每日疫苗接种数据,并仔细分析以产生意义上的见解和预测。我们提出了一个新颖的框架,利用了我们称为疫苗的监督学习和强化学习(RL),该学习能够学习一个国家状态下预测疫苗接种的需求,并建议该州的最佳疫苗分配以最低成本采购和供应。目前,我们的框架接受了美国疫苗接种数据的训练和测试。
translated by 谷歌翻译
本文在资源受限边缘设备中阐明了声学单音和多音分类的模型。所提出的模型是最先进的快速准确稳定的微小门控复发性神经网络。通过使用较低的参数,通过使用更高的效率和降噪算法的参数,该模型与先前的假设方法相比,该模型改善了性能度量和较低尺寸。该模型实现为声学AI模块,专注于应用声音识别,本地化和部署,如自主汽车的AI系统。此外,包括本地化技术的潜力将新的维度添加到自动车辆中存在的多色分类器,因为它未来城市城市和发展中国家的需求增加。
translated by 谷歌翻译
HyperParameter优化是机器学习中的一种无处不在的挑战,训练型模型的性能在其有效选择时依赖于大致依赖。虽然为此目的存在丰富的工具,但目前在差分隐私(DP)的约束下,目前没有实际的超参数选择方法。我们研究鉴于差异私立机器学习的诚实的封锁,其中,在整体隐私预算中占了超代调优的过程。为此,我们)显示标准的组合工具在许多设置中优于更高级的技术,ii)经验和理论上展示了学习率和剪辑规范率HyperParameters,III之间的内在联系,表明DPADAM等自适应优化器享有显着的优势在诚实的HyperParameter调整过程中,IV)借鉴了DP设置中ADAM的新颖限制行为,以设计新的更高效的优化器。
translated by 谷歌翻译
移动对象检测和分割是自主驱动管道中的基本任务。检测和隔离车辆周围环境的静态和移动部件在路径规划和定位任务中特别关键。本文提出了一种新的实时架构,用于光检测和测距(LIDAR)数据的运动分割。我们在2D鸟瞰图(BEV)表示中使用两个连续扫描的LIDAR数据(BEV)表示,以将像素明智的分类执行为静态或移动。此外,我们提出了一种新的数据增强技术,以减少静态和移动物体之间的显着类别不平衡。我们通过用切割和粘贴静电车辆人工合成移动物体来实现这一点。我们在常用的汽车嵌入式平台上展示了​​8毫秒的低延迟,即Nvidia Jetson Xavier。据我们所知,这是第一个直接在Lidar Bev空间中执行运动细分的工作。我们为具有挑战性的Semantickitti数据集提供定量结果,HTTPS://youtu.be/2AJ-CL8B0LI提供定性结果。
translated by 谷歌翻译
联合学习(FL)是一个分布式模型培训范式,可保护客户的数据隐私。在计算时间,传输时间,计算负载和传输负载方面,FL超参数显着影响训练开销。然而,目前手动选择FL超参数的实践在流动者中对FL从业者进行了高负担,因为各种应用更喜欢不同的训练偏好。在本文中,我们提出了FEDTUNING,这是一种针对应用程序的自动流动调整算法,对应用程序的多种系统要求进行了多种。与固定的FL超参数相比,FEDTUNING是轻量级和灵活的,平均改善了不同的训练偏好的改进22.48%。FEDTUNING可在HTTPS://github.com/dtczhl/fedtuning使用。
translated by 谷歌翻译
多视图检测(MVD)对于拥挤环境中的遮挡推理非常有效。虽然最近使用深度学习的作品在该领域取得了重大进展,但它们已经忽略了泛化方面,这使得它们\ emph {现实世界部署不切实际。我们工作的关键新颖性是\ emph {形式化}三种临界形式的普遍化和\ emph {建议实验来评估它们}:泛化与i)不同数量的相机,ii)变化的相机位置,最后,iii)到新场景。我们发现现有的最先进的模型通过对单个场景和相机配置过度提供了较差的概括。为了解决问题:(a)我们提出了一种新颖的通用MVD(GMVD)数据集,同时使用变化的日间,相机配置,不同数量的相机以及(B)来吸收多样化的场景,以及(B)我们讨论了对MVD带来概括的属性并提出一个鞍座模型融合它们。我们在WildTrack,MultiviewX和GMVD数据集上执行一套全面的实验,以激励评估MVD方法的概括能力,并证明所提出的方法的功效。可以在\ url {https:github.com/jeetv/gmvd}中找到代码和建议的数据集
translated by 谷歌翻译